奥特曼离职原因曝光:OpenAI发现了构成人类威胁的AI突破
点击
上方蓝字关注我们
“
在OpenAI首席执行官解职前,员工研究人员向董事会发出警告信,指出他们发现了一项可能威胁人类的强大人工智能发现。这封信成为董事会解雇阿尔特曼的导火索,信中涉及的AI突破被称为Q*,它被认为可能是OpenAI在寻找超级智能(AGI)方面的突破之一。
在OpenAI首席执行官Sam Altman度过四天的流放前,员工研究人员向董事会发出警告信,指出他们发现了一项可能威胁人类的强大人工智能发现。这封信成为董事会解雇阿尔特曼的导火索,导致700多名员工威胁辞职。
信中涉及的AI突破被称为Q*,它被认为可能是OpenAI在寻找超级智能(AGI)方面的突破之一。尽管Q*目前只能在小学生水平上解决数学问题,但研究人员对其未来的潜力充满信心。这一事件引发了业界广泛关注,OpenAI公司拒绝置评。
在OpenAI首席执行官萨姆·阿尔特曼(Sam Altman)度过四天的离职之前,几位员工研究人员向董事会发出了一封信,信中提到了一个名为Q*(Q-Star)的人工智能新发现,称其拥有潜在的力量,足以对人类构成威胁。
知情人士称,这封信只是导致阿尔特曼被解雇的一系列不满中的一个因素。
据Mira Murati透露,这个以解决数学问题为卖点的AI新模型利用了巨大的计算资源,并且能够解决一些高级数学问题。在执行数学运算方面,这个系统表现得如同中学生一般,即使在学生们参加的测试中也能获得高分,这让研究人员对Q*的未来充满了乐观。
内部有人认为这可能是该初创公司寻找超级智能(也称为人工通用智能AGI)的一个重要突破,OpenAI将AGI定义为比人类更聪明的人工智能系统。
尽管目前还没有具体的细节披露,但是这一消息已经在科技圈内引起了广泛关注。人工智能的发展速度正在加快,而这种加速趋势也引发了对未来可能出现的伦理和安全问题的担忧。从自动驾驶汽车到医疗诊断,AI的应用正在拓宽,但同时也引发了对其可能带来的不可预知后果的讨论。
在这样的背景下,OpenAI研究人员的警告显得尤为重要。这不仅仅是一个技术问题,更是一个社会问题。如何平衡技术进步与潜在风险,确保人工智能的发展能够造福人类,而不是造成威胁,这是当前最为迫切需要解决的问题之一。
随着更多细节的披露,我们可以期待对Q*的更深入了解,以及OpenAI如何应对与这一突破相关的伦理和安全挑战。在此之前,社会各界应保持警惕,对人工智能的未来发展保持审慎乐观的态度。
已有超过1000名
读者加入交流群
我们还在等你
点个在看你最好看
CLICK TO SEE YOU LOOK THE BEST